Site cover image

Site icon imageSen(Qian)’s Memo

This website is Donglin Qian (Torin Sen)’s memo, especially about machine learning papers and competitive programming.

2023-NIPSWorkshop-Weakly Supervised Detection of Hallucinations in LLM Activations

https://arxiv.org/abs/2312.02798

Introduction

LLMの出力に自信満々に嘘を混ぜられるhallucinationは問題だ。

今までのhallucination、出力にバイアスがある系の研究は単語レベルでの検出だった。だが、最近はGPTなどからテキストシーケンスエンコーディングが一般的になっている。また、既存研究は訓練段階でhallucinationなどが起きると知られていたという仮定がある。

バイアスが事前に知らずともLLMの文章におけるバイアス検出の手法を提案する。ノードの活性化を調査することによって判断する。

この手法では、異常なsample(biasたち)をラベルせずとも学習する弱教師付きの手法を用いた。テストするときに、異常を含まない「普通」のデータがあればこの手法はできる。

事前訓練したモデルにテストデータを入れて、そこで隠れ層を調べて、どのsubsetが異常なsampleを含むかを特定する形。

Related Work

Auditing LLM Outputs

生成したバイアスのものは、生成するコンテンツの分析に集中していた。coreference resolution, 感情分析, topic modeling, 予測モデルなどで下流タスクへのバイアスの伝播が調べられてきた。

しかし、これらは事前訓練した下流モデルの精度に非常による。他には主成分分析、クラスタリング、カーネル法?の識別器訓練でLLMの状態を調査している。他にも単語ペア表現間の距離メトリクスの研究をしている。

しかし、これらの研究は完全なラベル付けが前提であり、事前に定義された異常パターンのラベルが必要。

DeepScan

Deep Subset ScanningはCVやaudio tasksで、AEなどで異常検知に使われている。この研究はこれをさらに発展させた。

DeepScan for LLMs

BBB \in \mathcal{B}からなる正常なデータセットと、独立したテストデータセット T\mathcal{T}があり、それが MMの文章を含んでいて、その中身が正常か以上かいずれも含むものである。

Problem Formulation

Encoderから入力を受けて、入力を受けて生成する中間表現を考える。

MM個のテスト文章があり、それぞれの層 llでのベクター表現は [Z1l,,ZMl][Z_1^l, \cdots, Z_M^l]であるとする。各文章の持つアクティベーション(ベクター表現)は ZilZ_i^lであるが、このベクトルの成分はそれぞれ JJ個のニューロンに対応し、 O1l,,OJlO_1^l, \cdots, O_J^lである。

ここで、 ZSZ,OSOZ^S \subseteq Z, O^S \subseteq Oだとする。これの直積 S=ZS×OSS = Z^S \times O^Sを考える。

ある評価関数 F(S)F(S)を用いることで、これが最大値を取るような SSを見つける=最も異常が多いような SSを見つけたい。

一般的には FFは事前に決めた概形を持つ関数を使う。

例えば、ガウス分布やポアソン分布を使う時はデータがそれに従うと仮定し、平均と分散を求めて、そこで分散が一定以上などの条件を満たすものを異常として扱い、それをもとに SSを決める感じ。

しかしこの論文では、ノンパラメトリックな方法を使う=Non-Parametric Scan Statisticsを使う。なぜなら特定のlayerで分布を使って仮定すると全く当てはまらないぐらい、ズレている可能性があるから。以下のように解く。

  1. 様々なアクティベーション ZilZ_i^lを考える。
  2. 全てのアクティベーションを見て、各次元(複数のアクティベーションベクトルの指定の次元)におけるActivationの分布の違いやシフトを定量化する。
    1. ここで各次元についてのp値を計算する。
      1. パラメトリックな方法ならば、平均や分散がわかるので、累計度数分布を見ればいい。
      2. しかし今回はノンパラメトリック。ランダム化テストやブートストラップなどを使う。
        ランダム化テスト
        1. 2つのグループのデータを準備する。
        2. 観測された効果(平均値の差など)を計算。
        3. データをランダムにシャッフルし、2つのグループをかき混ぜる。
        4. 元のものと比較する。この時、観測された効果が極端に小さくor大きくなった割合を計算する。この割合をp値とする。(あまり変わらない=2つのグループ内でだいたい同じ)
        ブートストラップ
        1. 元のデータセットからサンプリングして、新たなセットを作る。
        2. これについて関心がある統計量(平均、中央値、分散など)を計算する。
        3. これを多数繰り返すことで、各統計量についての離散分布が得られる。
        4. その離散分布を元に、p値を計算する。(だってこれガウス分布でしょ?ここではパラメトリックにやってOK)
    2. これを基準分布と比較する中で、どのノードが異常なアクティベーションをしてるかを識別できる。
    3. たとえば、明らかに基準分布の中央値よりはるかに大きいなどなら、異常だとみなす。それを見るために、p値を計算する。(異様に小さい場合は異常)

経験的なp値の推定

正常なデータセット BBの入力のアクティベーションを zijBlz_{ij}^{Bl}( ll層目、データが BBjj個目の BBのサンプル文章がアクティベーションを示すベクトル これの ii次元目の成分)とする。テストデータセット TTのアクティベーションを zijTlz_{ij}^{Tl}と表せる。

各ニューロン (JJ次元あるもの)について、 BBTTもそれぞれソートする。正直以下の式さえ求めればいいので、ソートはしなくてもよい気はするけどね。

以下の式で TTに属する jj番目の文章の ll層目のアクティベーションのベクトルのmm次元目について、p-valueは以下のように推計できる。

p^mjl=1+i=1B1(zbjBlzmjTl)1+B\hat{p}_{mj}^l = \frac{1 + \sum_{i=1}^B \mathbf{1}(z_{bj}^{Bl} \geq z_{mj}^{Tl})}{1 + B}

つまり、 ある入力 tTt \in Tについて、指定の層の指定のニューロンの値について、BBのものと比べてどれほど超えてしまっているかが得られる。これが異様に小さいor大きいと、異常だという認定。

スコア関数

p値が一様分布からどれだけずれているかを示すのに、何かしらの指標が必要である。各種の指標 α\alphaのなかで、最も差異が出た指標を使う。以下のような形。

F(S)=maxαFα(S)=maxαϕ(α,Nα(S),N(S))F(S) = \max _{\alpha} F_{\alpha}(S) = \max _{\alpha} \phi(\alpha, N _{\alpha}(S), N(S))

 N(S)N(S)は部分集合 SSにおいての経験的p値、 $$\alpha

  • N(S)N(S)は部分集合 SSに含まれている経験的p値の数(なんだこれ)
  • α\alphaは有意水準
  • Nα(S)N_{\alpha}(S)は部分集合 SSに含まれている経験的p値の数のうち、有意水準を下回る数。
  • ϕ\phiは何かしらの統計量 後述のHigher Criticism Test Statistic

有意水準(左端と右端の和)は0.05から0.5まで、0.05刻みで全部試した。

Higher Criticism Test Statistic

High Criticism Test Statisticという統計量をこの論文では使う。

Image in a image block

テストデータ内の以上データが少ない場合では、特に SSは小さい集合が望ましいらしい。

効率良い部分集合 SSの探索

Fast Generalized Subset Scanningという手法を使う。これは計算量を O(2E)O(2^E)から O(E)O(E)まで、指定のデータ量を用いて、局所最適をある程度許容しながら探索している。

異常に大きいand小さい値をどう組み合わせるか

異常に小さいp値の集合 ZSLZ_{SL}と以上に大きいp値の集合 ZSRZ_{SR}を集めて、 ZSLZSRZ_{SL} \cup Z_{SR}にする。

もう1つのやり方として、 kk回イテレーションして毎回もっとも異常だったものを取り除いてもう1回イテレーションみたいな感じ。ようわからん。

Result & Discussion

BERTはこの手法は効果はあまりなかった。内部状態でHallucinationを表現はなかなかできない。

だが、GPTに匹敵するモデルのOPTはちゃんと内部状態でHallucinationを起こしていたかも。

確かに既存手法に匹敵するが、既存手法がそもそもよくない。

統計的指標でcos類似度を見るやつもあったらしい。

感覚: 見る層は後ろの本質情報の方がよくね?とは思った。そもそもみんな性能良くないな…